首页> 外文OA文献 >Joint Patch and Multi-label Learning for Facial Action Unit Detection
【2h】

Joint Patch and Multi-label Learning for Facial Action Unit Detection

机译:联合补丁和多标签学习的面部动作单元检测

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

The face is one of the most powerful channel of nonverbal communication. The most commonly used taxonomy to describe facial behaviour is the Facial Action Coding System (FACS). FACS segments the visible effects of facial muscle activation into 30+ action units (AUs). AUs, which may occur alone and in thousands of combinations, can describe nearly all-possible facial expressions. Most existing methods for automatic AU detection treat the problem using one-vs-all classifiers and fail to exploit dependencies among AU and facial features. We introduce joint-patch and multi-label learning (JPML) to address these issues. JPML leverages group sparsity by selecting a sparse subset of facial patcheswhile learning a multi-label classifier. In four of five comparisons on three diverse datasets, CK+, GFT, and BP4D, JPML produced the highest average F1 scores in comparison with state-of-the art.
机译:脸部是非语言交流中最强大的渠道之一。描述面部行为的最常用分类法是面部动作编码系统(FACS)。 FACS将面部肌肉激活的可见效果分为30多个动作单位(AUs)。 AU可以单独出现,也可以成千上万种组合出现,可以描述几乎所有可能的面部表情。现有的大多数自动AU检测方法都使用“一对多”分类器来解决该问题,并且无法利用AU和面部特征之间的依赖性。我们引入联合补丁和多标签学习(JPML)来解决这些问题。 JPML在学习多标签分类器的同时,通过选择面部补丁的稀疏子集来利用群体稀疏性。在三个不同数据集CK +,GFT和BP4D的五个比较中,有四个比较,JPML的F1平均得分最高。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号